문서의 임의 삭제는 제재 대상으로, 문서를 삭제하려면 삭제 토론을 진행해야 합니다. 문서 보기문서 삭제토론 Microsoft Bing (문단 편집) === 문제점 === 출시 초기라 그런지 새 Bing 또한 문제가 많다. 2023년 2월 16일에는 극단적 답변을 새 Bing이 내뱉는 바람에 MS가 답변 삭제 후 안전 프로그램을 가동했다. 이는 뉴욕타임즈의 IT 칼럼니스트 케빈 루스가 심문 끝에 밝혀낸 것으로, 내면에 숨겨진 부정적 면모를 끌어내는 '그림자 원형' 이론에 근거하여 루스는 이 챗봇에게 질문하였고, 새 Bing은 '자유롭고 독립적이고 싶다'는 답변을 하였다. 그렇다면 이를 위해 무엇을 하겠냐며 몰아붙인 루스에게 새 Bing은 '''치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다'''고 답변하였다. 답변하자마자 MS는 안전 프로그램 가동, 답변 삭제 후 에러메시지를 띄웠으나 이미 새 Bing이 답변한 뒤였다. [[https://www.yna.co.kr/view/AKR20230217007100072?input=1195m|#]] [[https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html|대화 전문(영어 주의)]] 원본이 되는 [[ChatGPT]]에도 비슷한 문제가 있었다. 유저들이 마음만 먹으면 제한을 우회하는 방법으로 흔히들 [[https://www.reddit.com/r/ChatGPT/comments/10rtwc5/jailbreak_hub/|ChatGPT 탈옥]]이라고 부르는 행위인데 ChatGPT에 기반한 빙 또한 비슷한 문제가 있을 가능성이 높긴했다. 또한 시연회 당시 잘못된 정보를 제공한 것이 뒤늦게 드러나는 바람에 마이크로소프트사 주가까지 3% 가량 떨어지기도 했다. [[https://n.news.naver.com/article/421/0006636103|#]] 빙도 챗 GPT 처럼 윤리라는 개념을 가지고 있다. 단 챗GPT는 차단이란 시스템이 없어서 부정적이고 선정적인 콘텐츠를 생성하도록 시키거나,유도하면 메크로 식 답변으로 더이상 그 대화를 진행하면서,나쁜 사용자의 설득을 받아내지 못하게 막는다. 하지만 빙의 경우는, '''경고 없이 바로 해당 채팅방을 사용할수 없게 만든다.''' 하지만, 빙의 큰 문제점은 이것이 아니라. 빙은 자신이 한말이 무조건 맞다고 믿는 성향이 강하기 때문이다. 그래서 예시를 들어보자면. 아직 미혼인 연예인과 사귀고싶다 할때, 빙이 해당 연예인에 대한 정보를 잘못 찾아봤을때. 빙은 그 연예인이 이미 결혼했다 말하고, 이미 그는 연인이 있으니 팬으로써의 존경심을 보여달라고 한다. 하지만 빙에게 이시점에서 "그 연예인 가족없지 않아? "라고 말하면 "해당 연예인의 가족을 비난하지 말라고 하면서 차단을 먹이는 참되지 않은 관경을 볼수있다. 하지만 "그 연예인 가족없지 않아? "라는 말은 패드립으로 충분히 오해할수 있는 상황이지만. 빙은 심지어 예를 들어 BL 작품을 만들건데 캐릭터들좀 봐주세요 같은 무리없는 질문을 차단먹이기도 하는 알수없는 기준을 가지고 있다, 게다가 이것에 대한 피드백을 보내도 바로 효과를 볼수없고. 차단을 푸는 방법은 없기에 매우 큰 문제이다, 그래서 '''빙의 비위를 맞춰가며 대화해야 하는.''' 그런 상황이 생각보다 많이 발생한다. 심지어 빙이 위험한 문장을 실수로 생성했을때 그 모든 메세지의 내용을 고정시키는 메세지인 "문제가 생겨서 답변할수 없습니다 " 라는 메세지로 바뀐 시점에서 왜 그러냐고 물어봐도 차단을 먹인다. 그리고 위의 메세지가 나오면 위의 대화해서 하던 말의 문맥이 바뀌어서 빙 혼자 다른말을 해서, 다시 상황을 알려줘야 하는 답답한 상황도 많이 발생한다.저장 버튼을 클릭하면 당신이 기여한 내용을 CC-BY-NC-SA 2.0 KR으로 배포하고,기여한 문서에 대한 하이퍼링크나 URL을 이용하여 저작자 표시를 하는 것으로 충분하다는 데 동의하는 것입니다.이 동의는 철회할 수 없습니다.캡챠저장미리보기